معاً لتفادي مخاطر الذكاء الاصطناعي
قبل بضعة أشهر، تقاعدت من السياسة. فبعد خمس سنوات من قيادتي لبلد صغير لكن رائع، أدركت أن الوقت قد حان لشخص آخر لتولي زمام الأمور. لكن خطتي للتراجع عن عناء السياسة عطّلتها كلمتان وهما «الذكاء الاصطناعي». فمثل الكثيرين، كنت أتابع التطور المتصاعد للذكاء الاصطناعي ووعده بفوائد ضخمة للبشرية، بدءاً من تحسين الإنتاجية إلى التقدم في العلوم الطبية. لكني كنت أتابع المخاطر أيضاً. فالتقنية الأساسية التي تمكّن مساعد الذكاء الاصطناعي من وصف صورة لشخص ضعيف البصر هي التكنولوجيا ذاتها التي قد تُيسر حملات التضليل، وما هذا إلا أول الغيث.
واهتمامي بالتعلم قابله سعي للعثور على إجابات. فأردت معرفة وجهة هذه الأدوات وماذا ستعنيه للديمقراطية والإنسانية. إذا كانت هذه هي الإجابات التي تبحثون عنها أيضاً، يمكنني إخباركم أنكم لن تعثروا عليها قريباً. فمن الصعب معرفة المسار الذي نسلكه حين يخبرنا المدافعون أن «كل شيء على ما يرام»، بينما يحذر آخرون من أن الذكاء الاصطناعي قد يكون نهاية البشرية.
ولا عجب أن القادة في الحكومة والصناعة والمجتمع المدني والأوساط الأكاديمية، وكذلك الناس بشكل عام، يبحثون عن طرقهم الخاصة لإدارة الذكاء الاصطناعي التوليدي. والشهر الماضي وحده، قدم قادة من كل ركن من أركان شركات التكنولوجيا العملاقة، مثل سام ألتمان من شركة أوبن أيه. أي، وبراد سميث من مايكروسوفت، وسوندار بيتشاي من جوجل - مخططات متنوعة للتحكم في الذكاء الاصطناعي. ولا يوجد نقص في الدعوات المطالبة بوضع ضوابط تحمينا من مخاطر الذكاء الاصطناعي. لكن لا أحد قادر على إخبارنا بكيفية بناء هذه الضوابط. وأنا لست خبيرة في الذكاء الاصطناعي. ولست هنا لأناقش التفاصيل الدقيقة لما يجب أن تتضمنه الرقابة. لكن لدي آراء قوية، مستمدة من تجربة مريرة، حول كيفية تطوير الرقابة.
ففي 15 مارس 2019، قتل إرهابي 51 من أفراد الجالية المسلمة النيوزيلندية في «كرايستشيرش». وبث المهاجم عمله على الهواء لمدة 17 دقيقة، ووجدت الصور طريقها إلى قنوات التواصل الاجتماعي في جميع أنحاء الكوكب. وحظر «فيسبوك» وحده أو أزال 1.5 مليون نسخة من الفيديو في أول 24 ساعة، وفي ذلك الإطار الزمني، حقق «يوتيوب» تحميلاً بواقع واحدا كل ثانية. كان على نيوزيلندا أن تختار بين قبول أن مثل هذا الاستغلال للتكنولوجيا كان حتمياً أو العزم على إيقافه. واخترنا اتخاذ الموقف الثاني. وكان علينا التحرك بسرعة. وكان العالم يراقب استجابتنا ورد فعل منصات التواصل الاجتماعي. لم تكن نيوزيلندا الدولة الوحيدة التي تجد صعوبة في معالجة العلاقة بين التطرف العنيف والتكنولوجيا. وأردنا إنشاء تحالف وعرفنا أن فرنسا بدأت العمل في هذا المجال، لذلك تواصلت مع الزعماء. وفي محادثتي الأولى مع الرئيس إيمانويل ماكرون، وافق على أنه يتعين القيام بشيء وقال إنه حريص على الانضمام إلينا في صياغة دعوة للعمل.
لقد طلبنا من الصناعة والمجتمع المدني والحكومات الأخرى الانضمام إلينا للاتفاق على مجموعة من الإجراءات التي يمكن أن نلتزم بها جميعاً. ولم نتمكن من استخدام الهياكل والبيروقراطيات القائمة لأنها لم تكن مجهزة للتعامل مع هذه المشكلة. وفي غضون شهرين من الهجوم، أطلقنا «دعوة كرايستشيرش للعمل»، واليوم أصبح أكثر من 120 عضواً، من بينهم حكومات ومقدمو خدمات عبر الإنترنت ومنظمات للمجتمع المدني. واتحدنا في هدف مشترك تمثل في القضاء على المحتوى الإرهابي والمتطرف العنيف الآخر عبر الإنترنت ودعم مبدأ الإنترنت الحر والمفتوح والآمن. ويجتمع القادة سنوياً لتأكيد الأولويات وتحديد مجالات التركيز، مما يسمح بعمل ديناميكي للمشروع. وسكرتارية الاتصال وهي مؤلفة من مسؤولين من فرنسا ونيوزيلندا تعقد مجموعات عمل وتضطلع بجهود دبلوماسية على مدار العام. وجميع الأعضاء مطالبون بتقديم خبراتهم لحل المشكلات العاجلة عبر الإنترنت.
صحيح أن نهج أصحاب المصلحة الكثيرين هذا ليس دائماً سهلاً، لكنه أحدث تغييراً. فقد عززنا قوة الحكومات والجماعات للتصدي للهجمات مثل تلك التي تعرضت لها نيوزيلندا. وأنشأنا بروتوكولات جديدة للاستجابة للأزمات التي مكنت الشركات من إيقاف البث المباشر لهجوم بافلو 2022 في غضون دقيقتين وإزالة اللقطات بسرعة من منصات كثيرة. وسنت الشركات والدول تدابير جديدة تتعلق بالثقة والأمان لمنع البث المباشر للمحتوى الإرهابي وغيره من المحتوى المتطرف العنيف. وقد عززنا «منتدى الإنترنت العالمي»، الذي أسسته الصناعة لمكافحة الإرهاب من خلال التمويل المخصص والموظفين ومهمة أصحاب المصلحة. وتستهدف «مبادرة نداء كرايستشيرش» بشأن النتائج الخوارزمية، وهي شراكة مع الشركات والباحثين، توفير وصول أفضل إلى نوع البيانات اللازمة لتصميم تدابير الأمان عبر الإنترنت لمنع التطرف والعنف.
ومنذ بدايتها، توقعت مبادرة «نداء كرايستشيرش» التحديات الناشئة للذكاء الاصطناعي وخصصت مساحة لمعالجة التقنيات الناشئة التي تهدد بتعزيز التطرف العنيف على الإنترنت. ويعالج «نداء كرايستشيرش» بنشاط قضايا الذكاء الاصطناعي هذه. وربما يكون الشيء الأكثر فائدة الممكن إضافته «نداء كرايستشيرش» إلى النقاش حول حوكمة الذكاء الاصطناعي هو النموذج نفسه. ومن الممكن الجمع بين الشركات والمسؤولين الحكوميين والأكاديميين والمجتمع المدني ليس فقط لبناء اتفاق آراء، لكن أيضاً لإحراز تقدم. ومن الممكن إنشاء أدوات تعالج هنا والآن وتضعنا أيضاً في مواجهة مستقبل مجهول. وللتعامل مع الذكاء الاصطناعي، يتعين علينا هذا. وسيكون هناك من يسخرون من التعاون أو يعتقدون أن العمل معاً يضعف المساءلة للجميع. وأنا أعترض. بالنسبة لـ«نداء كرايستشيرش»، كان على الحكومات قبول دورها في معالجة جذور التطرف والراديكالية. ويُتوقع من الشركاء التقنيين تحسين الإشراف على المحتوى وشروط الخدمة لمعالجة التطرف العنيف والمحتوى الإرهابي. وكان على الباحثين والمجتمع المدني أن يطبقوا بنشاط البيانات وأطر حقوق الإنسان على سيناريوهات العالم الحقيقي.
وبعد هذه التجربة، أرى أن التعاون في الذكاء الاصطناعي هو الخيار الوحيد. فتطور التكنولوجيا أسرع بكثير من أي إصلاح تنظيمي مفرد. ويتعين أن تكون الحلول حراكية وقابلة للتطبيق عبر مناطق السلطان القضائي المختلفة وقادرة على توقع المشكلات والاستجابة لها بسرعة. والحكومة وحدها لا تستطيع القيام بهذه المهمة. والمسؤولية تقع على عاتق الجميع، بما في ذلك الذين يطورون الذكاء الاصطناعي في المقام الأول. ومعاً، نتمتع بأفضل فرصة لإنشاء حواجز حماية وهياكل حوكمة ومبادئ تشغيل تجنبنا الندم. لا يتعين علينا إنشاء نموذج جديد لحوكمة الذكاء الاصطناعي. إنه موجود بالفعل، وهو يعمل. لذا دعونا نمضي فيها قدماً.
جاسيندا أرديرن
رئيسة وزراء نيوزيلندا السابقة
ينشر بترتيب خاص مع خدمة «واشنطن بوست لايسينج آند سينديكيشن»